为 log 实现的无锁 Ringbuffer
这两天在改 log 模块。我们需要一个并发写 log 的模块,它有多个 log 生产者一个消费者,这个唯一的消费者在 log 线程中把 log 数据持久化。
大多数 log 生产者是在第三方库的 callback 函数中调用的,比如 bgfx ,如果写 log 不够快的话,就会阻塞渲染。这个 callback 需要自己保证线程安全。因为 bgfx 支持多线程渲染,所以写 log 的 callback 可能在不同的线程触发。
过去在实现 bgfx 的 luabinding 时,我实现了一个简单的 mpsc 队列,get_log
这个函数就是那个单一消费者,它取出队列中所有的 log 信息,返回到 lua 虚拟机中。
它是用 spin_lock
实现的。这两天,我想应该可以实现一个更通用的无锁版本。
在我的需求中,log 信息是允许丢掉的。所以我开了一个固定大小的 ringbuffer 收集各个不同线程生产出来的 log ,然后在一个单一线程定期(通常是一个渲染帧一次)取出它们。只要取的频率够高,而生产的 log 数量不那么快的话,一个合适大小的 ringbuffer 就能以最简单的数据结构解决问题。
我觉得一个无锁结构的 log 系统需要两个 ringbuffer 。
我们缓存的 log 条目数目上限估计不用太大,4096 或许是个合适的数字:即,每帧不会产生超过 4000 条 log 。那么就用一个 4096 的固定数组即可。
实现这么一个 ringbuffer 需要有两个 64bit 变量,head 和 tail 。其中 tail 被多个生产者共享,所以它必须是原子变量,让多个生产者依次尾进头出这个队列 ring buffer。head 只由唯一消费者控制,不需要原子变量。写入数据保持这样的流程:
- index = fetch and add tail, 1
- buffer[index % 4096] = meta
这里只需要记录 meta 信息,而不是 log 的文本。这里的 meta 信息只这一条 log 的实际内容在另一个 ringbuffer 中的 offset 和 size 。写入 meta 信息时,需要先写 offset 再写 size。为什么是这个次序,下面会展开说。
第二个 ringbuffer 记录 log 的文本内容,可以用一个更大的队列,比如 64K 。这个 ringbuffer 只需要一个 64bit 的原子变量 ptr 。而将 log 文本写入 buffer 只需要下列的流程:
- offset = fetch and add ptr, size
- copy string to buffer + offset % 64K (回绕时,需要分两段复制)
也就是说,我们把 log 文本写入一个固定长度的 ringbuffer 时,只要不断的推进 ptr 指针,然后写入数据即可,不用考虑是否覆盖了旧数据。
而 log 的消费者负责检查数据是否还在 ringbuffer 中,或是已经被覆盖丢失。这个检查条件非常简单: offset + 64K 小于 ptr 表示该 offset 处的内容已经不在内存中。因为持有引用方记住的 offset 和 ringbuffer 自己的 ptr 都是 64bit 单调递增的,而内存中只保存有 ptr 之前 64k 的内容,比较它们两个值就能知道数据是否有效。
在第一个 ringbuffer 每个条目的 meta 信息中,我们保存有数据在第二个 buffer 中的 offset 和 size 。读取后便可以校验读到的数据是否有效。
唯一一个读取 log 的消费者可遵循这样的流程:
- 如果在第一个 ringbuffer 中, head == tail 表示队列为空。
- 如果 head 对应的 meta.size 为负数, 表示数据还没有准备好(也可以视为空)。
- 队列有效时,index = head++ 。递增 head 。
- 根据 buffer[index] 的 offset 和 size 从第二个 ringbuffer 中取出内容。
- buffer[index].size = -1 。赋值 size 为 -1 。这样可以标识这个 slot 是无效的。这可以保证在生产者填入数据时(最后写 size 字段),如果没填完,以上 step 2 就能检查出来。
我简单实现了一下:
https://gist.github.com/cloudwu/e8cc734a31dd01b439d8d131acc361c3
尚未测试。而且就我写并发代码,尤其是无锁结构,是很容易出错的。所以以上代码仅供参考。它的确很简单,如果有 bug 也应该很快能发现。
Comments
Posted by: cloud | (7) February 25, 2024 02:18 PM
Posted by: cloud | (6) February 21, 2024 11:43 AM
Posted by: 赵中 | (5) February 19, 2024 05:06 PM
Posted by: Joe | (4) February 8, 2024 11:19 PM
Posted by: Cloud | (3) February 8, 2024 09:19 AM
Posted by: Joe | (2) February 7, 2024 11:17 PM
Posted by: Adam Zhang | (1) February 5, 2024 07:24 PM